Connect Amazon Bedrock agents to cross-account knowledge bases
组织需要无缝访问其结构化数据存储库来为智能 AI 代理提供支持。然而,当这些资源跨越多个 AWS 账户时,可能会出现集成挑战。本文探讨了一种实用的解决方案,用于将 Amazon Bedrock 代理连接到驻留在不同 AWS 账户中的 Amazon Redshift 集群中的知识库。
在这篇博文中,我们探讨了 TR 如何通过 Open Arena 解决关键业务用例,Open Arena 是一种高度可扩展且灵活的无代码 AI 解决方案,由 Amazon Bedrock 和其他 AWS 服务(例如 Amazon OpenSearch Service、Amazon Simple Storage Service (Amazon S3)、Amazon DynamoDB 和 AWS Lambda)提供支持。我们将解释 TR 如何使用 AWS 服务来构建此解决方案,包括架构的设计方式、它解决的用例以及使用它的业务配置文件。
Transform your MCP architecture: Unite MCP servers through AgentCore Gateway
今年早些时候,我们推出了 Amazon Bedrock AgentCore Gateway,这是一项完全托管的服务,充当集中式 MCP 工具服务器,提供统一的界面,代理可以在其中发现、访问和调用工具。今天,我们正在扩展对现有 MCP 服务器的支持,作为 AgentCore Gateway 中的新目标类型。借助此功能,您可以将多个与代理目标一致的特定于任务的 MCP 服务器分组到单个可管理的 MCP 网关接口后面。这降低了维护单独网关的操作复杂性,同时提供与 REST API 和 AWS Lambda 函数相同的集中式工具和身份验证管理。
How Amazon Search increased ML training twofold using AWS Batch for Amazon SageMaker Training jobs
在本文中,我们向您展示 Amazon Search 如何利用 AWS Batch 进行 SageMaker 训练作业来优化 GPU 实例利用率。该托管解决方案使我们能够在 P5、P4 等 GPU 加速实例系列上协调机器学习 (ML) 训练工作负载。我们还将提供用例实现的分步演练。
Iterate faster with Amazon Bedrock AgentCore Runtime direct code deployment
Amazon Bedrock AgentCore 是一个代理平台,用于大规模安全地构建、部署和操作有效的代理。 Amazon Bedrock AgentCore Runtime 是 Bedrock AgentCore 的完全托管服务,它提供低延迟无服务器环境来部署代理和工具。它提供会话隔离,支持多种代理框架(包括流行的开源框架),并处理多模式 [...]
在这篇文章中,我们研究了 Switchboard, MD 在临床环境中扩展转录准确性和成本效益方面面临的具体挑战、他们选择正确转录解决方案的评估流程,以及他们使用 Amazon Connect 和 Amazon Kinesis Video Streams 实施的技术架构。这篇文章详细介绍了所取得的令人印象深刻的成果,并展示了他们如何利用这一基础实现 EMR 匹配自动化,并让医护人员有更多时间专注于患者护理。
Custom Intelligence: Building AI that matches your business DNA
2024年,我们在AWS Generative AI创新中心推出了定制模型计划,为模型定制和优化的每个阶段提供全面支持。在过去的两年里,该计划通过与不同行业的全球企业和初创公司合作,取得了卓越的成果——包括法律、金融服务、医疗保健和生命科学,[...]
Clario streamlines clinical trial software configurations using Amazon Bedrock
这篇文章建立在我们之前讨论 Clario 如何开发由 Amazon Bedrock 提供支持的 AI 解决方案以加速临床试验的文章的基础上。从那时起,Clario 进一步增强了其人工智能能力,专注于创新解决方案,简化临床试验软件配置和工件的生成,同时提供高质量的临床证据。
こんにちは,你好。 Anthropic 最近推出的 Claude Sonnet 4.5 和 Claude Haiku 4.5(现已在 Amazon Bedrock 上提供)标志着生成式 AI 模型的重大飞跃。这些最先进的模型擅长复杂的代理任务、编码和企业工作负载,为开发人员提供增强的功能。除了新型号之外,我们很高兴地宣布 [...]
AI 代理需要代表您浏览网页。当您的代理访问网站以收集信息、填写表格或验证数据时,它会遇到旨在阻止不需要的机器人的相同防御措施:验证码、速率限制和彻底阻止。今天,我们很高兴与大家分享 AWS 拥有一个解决方案。 Amazon Bedrock AgentCore [...]
Responsible AI design in healthcare and life sciences
在这篇文章中,我们探讨了在医疗保健和生命科学领域构建负责任的人工智能系统的关键设计考虑因素,重点是建立治理机制、透明度工件和安全措施,以确保安全有效的生成式人工智能应用。讨论涵盖了减轻虚构和偏见等风险的基本政策,同时在整个人工智能开发生命周期中促进信任、问责制和患者安全。
Beyond pilots: A proven framework for scaling AI to production
在这篇文章中,我们探讨了 5V 框架,这是一种经过现场测试的方法,已帮助 65% 的 AWS Generative AI Innovation Center 客户项目成功从概念过渡到生产,其中一些项目在短短 45 天内就启动了。该框架通过价值、可视化、验证、验证和风险阶段提供了一种结构化方法,将焦点从“人工智能能做什么?”转移。到“我们需要人工智能做什么?”同时确保解决方案提供可衡量的业务成果和可持续的卓越运营。
Generate Gremlin queries using Amazon Bedrock models
在这篇文章中,我们探索了一种创新方法,该方法使用 Amazon Bedrock 模型(例如 Amazon Nova Pro)将自然语言转换为 Gremlin 查询,从而帮助业务分析师和数据科学家访问图形数据库,而无需深厚的技术专业知识。该方法涉及三个关键步骤:提取图形知识、构建类似于文本到 SQL 处理的图形,以及通过迭代细化过程生成可执行的 Gremlin 查询,该过程在测试中实现了 74.17% 的总体准确率。
Incorporating responsible AI into generative AI project prioritization
在这篇文章中,我们探讨了公司如何系统地将负责任的人工智能实践纳入其生成式人工智能项目优先级排序方法中,以更好地根据成本评估业务价值,同时解决幻觉和监管合规等新风险。这篇文章通过一个实际的例子展示了如何进行预先负责任的人工智能风险评估,通过揭示影响整体项目复杂性和时间表的大量缓解工作来显着改变项目排名。
Build scalable creative solutions for product teams with Amazon Bedrock
在这篇文章中,我们探讨产品团队如何利用 Amazon Bedrock 和 AWS 服务通过生成式 AI 转变其创意工作流程,实现跨多种格式的快速内容迭代,同时保持品牌一致性和合规性。该解决方案展示了团队如何部署可扩展的生成式人工智能应用程序,以加速从产品描述和营销文案到视觉概念和视频内容的一切,显着缩短上市时间,同时提高创意质量。
Build a proactive AI cost management system for Amazon Bedrock – Part 2
在这篇文章中,我们探讨了 Amazon Bedrock 部署的高级成本监控策略,引入了精细的自定义标记方法,以实现精确的成本分配和全面的报告机制,这些机制建立在第 1 部分中建立的主动成本管理基础之上。该解决方案演示了如何实现调用级标记、应用程序推理配置文件以及与 AWS Cost Explorer 的集成,以创建生成式 AI 使用和生成的完整 360 度视图。 费用。
Metagenomi generates millions of novel enzymes cost-effectively using AWS Inferentia
In this post, we detail how Metagenomi partnered with AWS to implement the Progen2 protein language model on AWS Inferentia, achieving up to 56% cost reduction for high-throughput enzyme generation workflows. The implementation enabled cost-effective generation of millions of novel enzyme variants u
Serverless deployment for your Amazon SageMaker Canvas models
在这篇文章中,我们将介绍如何采用 SageMaker Canvas 中构建的 ML 模型并使用 SageMaker Serverless Inference 进行部署,帮助您快速高效地从模型创建到生产就绪的预测,而无需管理任何基础设施。该解决方案演示了一个完整的工作流程,从将经过训练的模型添加到 SageMaker 模型注册表,到创建无服务器端点配置,再到部署根据需求自动扩展的端点。